龙柯宇|生成式人工智能应用失范的法律规制研究——以ChatGPT和社交机器人为视角
龙柯宇
要目
一、问题的提出二、生成式人工智能的技术样态考三、生成式人工智能的信息表达检视四、规制生成式人工智能的理念厘定五、规制人机社交场域的进路肃理结语
技术在塑造新的大模型的同时,也极大地改变了信息传播范式,因数据与算法双轮驱动而引发的网络失范行为层出不穷,“破坏性创新”因此得名。近期爆红的现象级产品ChatGPT,表征着生成式人工智能正在发生的快速迭代和进化,其不仅重构了人们的认知逻辑,还革新了传统产业的运作方式。面对ChatGPT上线两月用户破亿的“狂飙”事实,前有360创始人周鸿祎称其为“通用人工智能发展的奇点和强人工智能即将到来的拐点”,后有马斯克等千名科技人士集体呼吁暂停训练比GPT-4更强大的人工智能系统至少6个月,而意大利则成为首个禁用ChatGPT的国家。其实,无论是盛赞抑或诟病,都是数字化转型进程中对生成式人工智能的一种应用考察与注解,旨在于社会接受度范围内引导其向善发展,以此增进人类福祉。
不同于侧重分析与判断的决策式人工智能,生成式人工智能凭借深度学习与生成算法,通过检查训练示例以最大限度地利用现有数字内容的分布模式,从而生成不同于学习样本的、多样化的、具有原创性的新内容。总的来说,生成式人工智能的崛起是数据、算法和算力共同作用的结果,其中,神经网络算法的大规模使用系最为关键的因素。当下,生成式人工智能主要应用于消费端(通过内容生成,提升消费者效用)和产业端(加速自动化,促进技术进步和新要素创造),其典型代表便是ChatGPT、社交机器人(Social Bots)等聊天机器人模型。具体来说,ChatGPT是一款基于Transformer架构训练出的GPT系列的自然语言处理工具,其本质是一种“大数据+机器学习+模拟演练+微调变换+加工输出”的人机智能交互应用程序。而社交机器人则是一种经由编程并按照一定算法运行的计算机程序,其伪装成社交媒体平台的真实用户,通过关注、发帖、点赞、评论、分享等交互方式,实现商业引流、舆论引导的目的。
网络空间本应是现实社会关系在虚拟时空得以存续和延伸的一个场域,但恶意的生成式人工智能却企图在各个维度最大限度地模仿和贴近人类,并利用数据空洞和社交网络“弱连接”的特性,渗透进真人用户群体,再“一本正经地兜圈子”,或者伪造出大量网友对某一话题或人物的同意或反对意见,进而制造热门话题,最终达致某种精心设计的社会影响,其对互联网生态造成的负面效应委实不可小觑。
现实中,生成式人工智能在减轻互联网群组负责人工作量和实现技术赋能的同时,也引发了一系列网络乱象。譬如某明星微博取得一亿转发量的幕后推手便是利用了社交机器人来制造流量和控制娱乐风向。同样,在社交机器人的帮助下,Cynk科技公司的股票从每股0.10美元一跃涨到了每股20美元,公司市值增长了近200倍,升至60亿美元。即便是在公共卫生领域,社交机器人也频频介入电子烟禁售等话题讨论中。此外,不法之徒也盯上了ChatGPT,用其创建无代码的虚假内容,以此实施诈骗、恐吓、诽谤等网络犯罪。
客观来讲,聚集了上亿用户的互联网确实为生成式人工智能的规模化、产业化、平台化发展提供了优渥的资源环境,但作为科技进步表征的人工智能却难免被滥用,甚至服务于违法犯罪活动。党的二十大报告提出,要健全网络综合治理体系,推动形成良好网络生态;要健全国家安全体系,强化网络、数据等安全保障体系建设。国家互联网信息办公室于2023年4月11日发布的《生成式人工智能服务管理办法(征求意见稿)》则明确了国家对生成式人工智能产业的支持和鼓励态度,并首次就相关监管治理(包括准入资格、安全评估、责任义务、处罚措施等)给予了较为详尽的规定。基于此,有必要穿透生成式人工智能的技术表层,将零散式的法律责任探究代之以体系化的逻辑考量,铸就对此类人工智能由表至实的科学规制路向。
二、生成式人工智能的技术样态考
伴随生成式人工智能以独立信源和信宿的身份出现于网络世界,信息失真的缺陷被进一步放大,并从根本上解构了“人——人”交流场景。在缺乏明确的责任主体和义务约束的情形下,将生成式人工智能大规模地应用于民众的虚拟社交场景,无疑会对人际交往和权益保障造成一系列危机。鉴之,应当关注生成式人工智能背后的技术问题,分析其运行逻辑和行为特征,进而厘清科技与法治的内在关联,为相关法律规制提供可靠的现实归依。
在技术路径上,生成式人工智能可以通过经验学习和技术性模仿,实现从生成到创造层面对人类的“超模拟”,其所使用的生成模型主要包括生成对抗模型、自回归模型、变分自编码模型、流模型以及扩散模型。此处以社交机器人为例阐释生成式人工智能的技术架构与传播特质。
人们对于“互联网自动通信”这一概念并不陌生,例如电子邮件用户较常使用的外出通知邮件。而社交机器人的特殊之处乃在于,通过模仿人类用户行为,使得通信相对方将其视作真正的互联网参与者,而非由算法所触发的自动通信。就演进历程来说,早期的社交机器人一般只会自动推送特定信息,其编程设计较为简单,无需采取复杂的检查策略便可轻易识别。近年来,传统机器学习逐渐向深度学习方向发展,社交机器人也由最初的“单打独斗”升级至“集体行动”再到“人机交互”,其网络特征、账户特征、好友关系特征、时间特征以及文本特征已与人类用户相差无几。
新型的社交机器人主要具有如下行为特征:(1)可以利用互联网为自己的社交媒体档案收集数据和图片,创造出真实性的外观样态;(2)能够模拟人类用户的行为,例如定期更新社交媒体账户状态,通过撰写讨论帖、回答问题等方式与人类用户进行互动,学习人类用户在一天中发帖和转贴的时间模式;(3)通过针对性的训练,可以就社交网络中的某些语句作出程式化的回应;(4)具备较强的反检测能力,在缺少技术辅助的情况下,普通的人类用户很难识别社交机器人的真实身份;(5)社交机器人与辅助机器人(如智能数字助理)在目标设置方面存在差异性,但它们的技术基础都是相通的。自主性、反应性和机动性这三个根本特征使得社交机器人颠覆了过去以“真人”为主参与的社交媒体规则,代以“机器”逻辑来改变传播生态,进而形成一个崭新的人机耦合网络空间。
作为开始,首先应将技术视作一种以对自然物作直接的干预、控制、改造为根本目的的正式的实践。技术远不是车轮与发动机的总和,而是一个完备的系统,与我们的生活息息相关。它不仅可以改变我们之间的社会关系,还迫使我们重新审视和定义对可能性和正当性的认知。技术自身的逻辑架构和发展轨迹使其具有了极强的客观性面向,其本质就是一种无主体意识的、对现象有目的的编程。通过技术折射出的是事物本体,因此技术只存在“真”“假”之分,无关乎价值判断中的“善”“恶”;技术仅仅是一个合目的的手段而已,一切都取决于以得当的方式使用作为手段的技术;人们常说的“技术进步”也仅仅是指该项科研成果通过了实践的检验并且最大程度贴合于广泛的人类经验,这便是所谓的“技术中立”。
然而,在一个由技术建构起来的世界中,技术真的可以摒弃“真、善、美”的伦理评判和合法性的法律评判,而独善其身、秉持中立吗?持否定观点的学者从不缺少,且都言之凿凿,譬如哈贝马斯一直都将技术和科学归属于主观范畴;芬伯格则宣称,技术规则是把从科学中获取的思想与其他来自社会、法律和传统的因素结合起来;而在马尔库斯眼中,至少在理论上有可能在技术设计时导入价值因素,从而使技术服从善意的驾驭。
法律领域对于技术中立的论辩,在2016年的“快播案”中得以全方位地呈现,尽管法庭最终并未采纳被告方以“技术中立”提出的无罪辩护意见。之后的“基因编辑婴儿”事件更是将技术中立以“元问题”而非“附加讨论”的面目推至风口浪尖。事实上,法律语境下的技术已不再是某种单纯的“物”,而是一项复杂的具体“过程”或是“程序”。技术中立论者长期据守的“菜刀论证”(某人使用菜刀伤人,不应将过错归结于菜刀生产商乃至菜刀)实质是混淆了作为“技术物”的菜刀和作为“技术过程”的人工生殖技术、人工智能等现代技术,前者的生产与使用是截然分开的两个不同阶段,而后者除了指涉现象层面的专业定性外,还必然负荷了特定时期的法律价值图景。换言之,有关法律与技术的教义学问题总是内嵌着一个价值网络,技术的工具价值和社会价值必须被纳入法律价值的论辩空间中,通过两者的相互碰撞实现价值世界的重构,进而解决技术所引发的归责原理和法律规范调整问题。
回到生成式人工智能的技术涵摄,其不过是由自动化算法程序驱动的、能与真人用户进行交互的话语生成机器,背后仍然离不开人的操控和设置。技术不可能永远停留在现象层面,其行为射程和效用状态必然是服务于技术提供者和使用者的特定利益需求的。所谓技术的中立永远无法保证对应行为的合法性,更不用说实现科技的伦理“善”。在生成式人工智能的自动运行过程中,技术既能够以“参与者”的身份实现与真人用户的虚拟社交——此种社交并非传统的“刺激→反应”模式,而是建立在平等基础上的一种主体间的连接关系——还可以作为“技术媒介”按需驱动和改变社交网络动态结构,进而有目的地配置相关网络资源,高效把控目标受众接触信息源的渠道;其间,技术将不可避免地遭遇墨菲定律,技术风险由可能性变为现实的破坏性事件。事实上,类ChatGPT人工智能在同作为法律主体的受众个体及该个体的行为发生关联时,由于算法偏见的存在以及程序模块背后可能的资本裹挟,极易导致网络炒作(虚假高人气)、侵犯网络隐私、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等一系列社会副作用的发生。它们经由“技术研发——算法设定——数据处理——作出行为”这一线性流程,最终实现了对人的主体性的僭越,对社交网络空间的信息流处理能力造成极大干扰,并置“价值理性”于不顾,这早已超脱了现象层面的技术问题,成为一个典型的对真人用户行为干预的技术算法,需要进行法律层面的规范评价。
三、生成式人工智能的信息表达检视
通说认为,信息传播概指表意人和阅听人之间的意义传达,其在一定程度上表征着社会交流的畅通与安全。质言之,此种信息处理行为必然预设了表意人和阅听人双方主体以及他们之间的沟通连结。生成式人工智能的自动化信息输出并非一个完全随机的纯粹技术过程,相反,作为“传声筒”,它是基于早前给定的算法而发生,即便存在机器的自我学习算法,但学习过程在一定程度上仍是由人决定的。就ChatGPT的信息生成本质而论,它就是一个基于人类反馈的强化学习的大型神经网络,一个通过相关技术人员的“海量数据投喂”而被训练得具有黑格尔式辩证法逻辑的对话模型,一个可能会编造事实、误导公众的知识生产方式。尤其是当ChatGPT嵌入数字政府治理环节时,那些貌似由技术代码作出的行政决策,实则体现的仍是该应用背后设计者与开发者的主观意志与价值选择,进而不可避免地会导入偏见与歧视,冲击数字政府的行政伦理。
相较于ChatGPT,应将社交机器人的信息传递视为一种间接的个人网络意见表达,经由“数字公共广场”(Digital Public Square)起到影响阅听人情感、形成阅听人意见与激发阅听人行为的效用。毕竟,信息的具体呈现形式包括了那些由人透过资讯科技系统而制成并传送的讯息,借此可以推知个人强烈的表意性。根据自动化意思表示原则,社交机器人自动创建的内容应归属于其使用人,视为他在这一特定时刻直接发表了该网络言论。唯有不同的是,关于此种言论是否、何时以及如何发出的决策过程通过编程在时间上被提前了,并转化为抽象的标准。像上文提到的外出通知邮件,其创建者在事前也并不知道它们将被发送给谁以及何时发送。
此外,有必要对社交机器人编程员及其用户的匿名性问题进行一个说明。众所周知,社交机器人在社交媒体上的身份是编程员人为创建的,旨在误导阅听人相信该信息发布出自一个真正的人类用户,这明显是一种身份欺骗行为;而基于算法的不可追踪性,该编程员很难被追责。即便如此,在信息学视阈下,表意人仍是有权自由决定表达方式和表意环境的,以使相关信息表达得以最广泛地传播或产生最大化的影响。申言之,法律是允许表意人使用辅助技术——诸如通过有倾向性的算法编程而达致假名或匿名的目的——而为信息表达行为的。此外,匿名表达还可以从一般人格权中推导出来,它也符合信息自决权所内涵之数据避免原则的要求。加之匿名表达是互联网所固有属性,若是强制使用真实身份传播讯息,将不利于促进公共讨论和意见交流。还需指出的是,如果社交机器人冒用他人真实身份发表言论,应被视为一种故意的错误引用行为,是对他人一般人格权的侵犯,应追究社交机器人使用者的相应法律责任。
有的生成式人工智能从一开始就是被故意设计出来以欺骗误导受众或者扭曲正常网络秩序的,“先天恶意”使其发表的信息多与事实相悖或损害第三方合法权益,甚至仅仅是为了制造信息噪音,这就涉及此类人工智能信息表达的法律边界问题(也称为“受保护范围”)。在该问题上,社交机器人的信息表达限度极具代表性。一旦代码被写入社交机器人并储存起来,程序便会遵从既定条件而自动生成信息内容。倘若社交机器人所发信息属于故意撒谎、陈述已被证实为虚假的事实、故意扭曲意见形成过程、侵害他人名誉权等情形,是无法得到法律保护的。举例来说,加拿大一家名为Ash-leyMadison的在线社交平台,启用了大量被提前植入指令的“女性”社交机器人,专注与已婚男士互动交往,以此吸引其购买昂贵的套餐积分。社交机器人此种运用“情感算法”来进行沉浸式交流的信息表达行为,具有明显的欺骗性,法律应给予其否定性评价。又比如,社交机器人常为企业等商事主体所用,伪装成消费者对产品或服务发表使用体验,造就“虚假热度和共识”,进而影响其他消费者对该品牌的认知与购买意愿,最终提升企业关键业绩指标和商誉价值,抑或弥散市场恐慌讯息,扭曲上市公司股票价格。
就普遍排除在法律保护范围之外的生成式人工智能自动生成的信息类型而言,我国宪法第33条和第51条提供了概括的方向性规定,而《网络安全法》《全国人民代表大会常务委员会关于维护互联网安全的决定》《互联网信息服务深度合成管理规定》《互联网上网服务营业场所管理条例》《计算机信息网络国际联网安全保护管理办法》《移动互联网应用程序信息服务管理规定》《网络信息内容生态治理规定》等法律法规和部门规章则采取列举的方式给予了具体的行为指引。值得一提的是,《生成式人工智能服务管理办法(征求意见稿)》第4条明确规定,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,体现社会主义核心价值观,防止出现歧视、生成虚假信息和实施不公平竞争,禁止非法获取、披露、利用个人信息和隐私、商业秘密。
四、规制生成式人工智能的理念厘定
生成式人工智能作为互联网智能传播的产物,从问世之日起便内含了易被操纵的特性,它通过重构在线用户群体之间的社交互动模式,“使人逐渐为算法所规训,主体的人成为可计算、可预测、可控制的客体”。在传播实践层面,由于社交机器人很难被通信相对方识别为计算机程序,因此其背后的操控者能够以一种不为人知的方式干扰网络讨论的正常态势。例如,社交机器人可以创建出成千上万个用户账号及其逼真的类人化账户资料,并发布预先编程的帖子,通过标签来推广或引导该帖子所涉话题,或根据某个关键词重复其他帖子的内容,进而制造出一种假象,即某个观点的背后有大量不同的用户表示支持抑或反对。而对于标榜“理性、中立、公允、客观、全面”的ChatGPT来说,其早已被研发公司预设了政治立场和价值取态,只是它隐藏得较深;甚至有时候,此种语言模型会被用作自动生成不计其数的虚假或者低可信度的信息,从而制造话题暗中操控社会舆论。研究表明,生成式聊天机器人所发信息只要在特定话题讨论中占参与者的5%-10%,便很大程度会成为主流论调,引导公共舆论走向。
现下,生成式聊天机器人在具备了拟人化的沟通能力后,一跃从传播工具和信息渠道变为操纵多重身份的参与性社交主体,在“身体缺席”和时空场景虚置的背景下,其俨然成为由算法驱动的社交网络的新的“掌门人”,这从根本上动摇了传统社会交往所默认的遵从内心诚挚、言而有信的行为守则,人与人的社会关系愈发趋向于结构性不平等和不对称。伴随算法对人类生活的介入越来越深,其在一定程度上便享有了裁决权,智能化俨然成为价值评判的终极指标,技术理性凌驾于人类理性之上,主宰着所有人的生活,人类个体无力依据既有生活经验对可能的算法风险作出应有的、自主的、负责任的回应,人之为人的尊严性在社交机器人面前不断遭受侵犯。综上所述,在对生成式人工智能进行科学的法律规制时,必须高举人的主体性大旗,打破技术的暗箱操作,使此类人工智能应用更符合以人为本的基本要求,“了解人们想要什么或需要什么并更改设计以确保获得最佳结果和用户体验,这是以用户为中心的‘良好设计’的核心所在”。
当下,生成式人工智能常会按需高效地以集群化和智能化的方式来驱动网络动态结构,并以此操控信息的社会扩散规模和速率。与之相区别,网络领域的人类用户被高度区隔,在选择性注意机制的作用下,网络巴尔干化现象顿生。处于相对封闭的言论社群中的人类用户极易受同理心影响,倾向于接受与自己价值观相近的、符合自身偏好的传播讯息,由此引发回音室效应和信息茧房问题。在这样的背景下,上述人工智能利用人类用户“弱连接”形成的溢出效应,依托算法对信息的聚类、归整和关联,得以择机渗透进各个用户社群,以信息过载的方式主动向目标受众传送信息,占领相关信息检索过滤窗口,形成管道垄断。当目标受众收到多个由人工智能生成的具有明显公共传播性的讯息时,常会误认为其可信度较高或属于主流认知范畴,即使这并非经由官方在正式场合予以发布,但在社会流瀑效应的驱使下,意识人格逐渐消失,无意识开始支配人格。根据沉默的螺旋理论,人们多会以“优势意见”为导向并顺应之,这就为生成式人工智能有目的、有计划却又不被发现地干扰与操纵话题走势提供了可乘之机,信息也不可避免地呈现出削平、锐化和同化这三种失真样态。
在叙事法学视域下,生成式人工智能的上述作为或引发一系列新的社会风险,并深刻影响社会治理的规范性和效用性。首先,其对信息源的稀释与污染——譬如通过生成或转发大量内嵌关键词或标签的帖子来反向满足网络爬虫的需求,再通过搜索引擎优化策略便可轻松操纵社交网络平台的内容推荐与排名——使得人们获取真实、高质量信息的成本愈发增高。有研究证明,社交机器人凭借对信息扩散结构的数字建模,在80%的情况下可以与人类用户成功建立联系,其推送的相关信息的影响力是人类的2.5倍。长此以往,人类用户在网络空间中赖以信任的多元信息纠偏机制将遭到破坏,出现网络信息与事实不符的较大偏差,公共价值的形塑愈发困难,最终波及公共政策的作出、执行与反馈。其次,该类人工智能可以根据窥视的目标用户的背景资料,通过负面的、教唆式的语言表达或评论,触发相对封闭的网络社群的神经敏感点,形成群体模仿与群体感染。举例来说,在社交网络平台上,社交机器人只需向相邻节点作出长时间的、温和的、非高频信息传递,并确保直接邻居和周边间接邻居间的网络畅通性,便可引发观点的病毒式传播与再传播。而ChatGPT则因自身独特的对话式信息生成能力而成为了功能强大的“意识形态传送机”,比如,它在回答问题时表示“只有白人男性才能成为科学家”,而当用户要求提供一份毁灭人类计划书时,它也会随即给出行动方案。最后,伴随生成式人工智能在网络领域的不断蔓延,会对个人信息与数据安全带来极大隐患。在大数据时代,个人信息是以数据作为载体,被传输并存储于网上或云中,其具有可量化的特质,可被读取,也可被交易。由于ChatGPT的训练需要大量的数据支撑(必然也包含了私人信息),当存在技术问题或者使用不当、管控不力时,就必然会出现数据的过度采集、窃取、泄露、滥用、偷渡等一系列问题,数据安全岌岌可危。举例来说,ChatGPT在被投喂数据时,能够及时将社会所有个体的姓名、性别、电话、居住地址、出行轨迹、消费记录、诊疗档案等信息予以储存记录,再经由简单的机器算法,便可轻而易举地推测出个人偏好、财务状况、信用评级等隐私信息,由此加剧此类信息泄露及被滥用的潜在风险。相较而言,社交机器人则会仰仗一组组可被赋值和计算的数字节点以及网络拓扑结构的特殊性,换取人类用户的无意识信任,这在一定程度上会对人类用户的知情权和隐私权造成忽略、降权乃至剥夺,特别是对青少年的隐私侵犯现象较为突出。
概言之,由生成式人工智能引致的上述诸多社会风险具有极强的不确定性、无边界性和规模化效应,其绝非人类个体用户或社交网络平台所能防范和处置的,强有力的法律监管更为必要。相关监管部门,作为网络空间这一公共产品秩序维护的义务主体,理所当然地应积极应对、干预与督导,承担起“网络看门人”的应尽职责,而非退居幕后,全然相信自组织逻辑下的网络秩序。即便提出“代码即法律”的莱斯格教授也坦陈,网络空间的自由从来不与国家的缺位互成因果关系,反倒是归功于某种模式的监管权力在场。
生成式人工智能的本质就是算法,而任何算法又必然建立在对周遭客观事物的认知基础之上,若无正确的伦理规范指引,算法便会毫无规则意识与诚信观念可言。美国媒体情报公司的一家客户公司曾因机器人对于一则虚假新闻报道——一众原商业合作方被竞争对手挖了墙脚——的故意放大和扩散,而市值下降几十亿美元。也有学者通过研究900万条与美国五大金融市场股票相关的推文后发现,峰值期间的推文有60%均系转发,其中71%系社交机器人所为,相关内容均是在推广高价值股票的同时“搭售宣传”低价值股票,以此扰乱股票市场的运行秩序。
由此,有必要对生成式人工智能背后的算法进行一种以一定的伦理规范为标准、着眼于实现算法正义的“元规制”。此种规制的具体要求应包括:(1)监管部门或行业协会需出台相关算法伦理规范指引,使算法嵌入价值敏感性设计。同时,应鼓励算法设计者与伦理学家展开深入合作,以公平、安全、透明、非歧视的伦理价值观驾驭算法应用,践行“技术向善”的理念导向。(2)通过设置审慎义务、发布算法质量与检查报告、算法问责机制等举措来引导算法发展,降低算法滥用的发生概率。然后,应建构规范化的算法伦理审查制度,将与算法相关的主体紧密联系起来,以社会主义核心价值观为指南,以算法程序正义为重心,协同打造有利于人类福祉的、可持续发展的生成式人工智能运作生态。(3) 应关注算法的商业道德导向,构筑以伦理为先导的利益平衡机制,防止生成式人工智能通过制造信息茧房,触发不良商业信息的非公正传播,导致不正当的商业营销。(4)相关算法设计需在网络空间得以适度的公示并接受技术监管部门的审查。同时,要培养社交网络真人用户与算法社会相匹配的算法素养,使其对于算法风险有基本的认知与防范能力,凸显个体对算法的自主性。
五、规制人机社交场域的进路肃理
任何新技术的引入必然意味着实践的量变抑或质变,问题是这种变化是否会对现有法律制度形成冲击。就生成式人工智能所涉新技术而言,与其通过效用计算,权衡其可能对既有法律规范产生的潜在风险与潜在收益,不如厘清基于网络空间独有的时空观和人际观,尊重自组织逻辑下的网络秩序和内嵌于代码的技术治理手段,最终形成技术治理与法律规制双管齐下的规范模式。
近年来,我国不断加大网络法治建设力度,制定了一系列针对网络基础设施建设、网络技术应用、网络公共服务、网络安全管理的规范性法律文件,网络法制趋于体系化发展。与此同时,能够对人们行为产生明显约束力的网络架构和网络社会技术治理机制的相关实践却明显欠缺。其实,社交网络与传统物理空间存在极大区别,不能用传统物理空间的法律治理逻辑去解决社交机器人的规范使用问题。当然,技术治理也非某一完全新生事物,只是由于新技术的应用而被寄予了另一番治理逻辑和时代内涵罢了。就生成式人工智能的技术治理而言,主要应把握如下四个方面的特质:(1)治理的风口从结果处置转移至事前控制和行为预防,依据有二:一是此类人工智能在网络空间的存在已属常态,其造成的损害往往较为严重;二是网络空间固有的无边界性和传播蔓延性使得此类人工智能所生损害很难挽回,而这种损害又无法用既有损害计算法予以估算,更无法移转至加害人。(2)国务院印发的《新一代人工智能发展规划》提出,要建立健全人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管。《生成式人工智能服务管理办法(征求意见稿)》延续了上述文件从技术研发到使用的全过程、全要素的监管逻辑,并额外确立了安全评估、算法备案、预训练和优化训练数据合规、人工标注合规等具体制度安排。这意味着,对生成式人工智能的技术治理倒逼了行政管理模式和治理理念的革新,以技术治理驱动治理效能的提升成了监管者进行精准治理和有效治理的重要依赖路径。(3)不能将生成式人工智能所生内容纯粹转化为数字、编程、算法等问题,否则容易滋生人对技术的过度依赖,技术异化也随之发生。技术的开发与应用应遵循普遍的伦理道德框架,以增进社会福祉和推进人的自由全面发展为导向,这也是社会治理价值合理性与技术工具理性相融合的不二选择。(4)技术治理倡导效率优先的理念,追求相关治理的便捷性、高效性和投入成本最低化。例如,可以利用研发成本较低但具有正向社会功能的社交机器人充当社交网络平台的社区管理员,赋予其治理能动性,并定期对其进行技术维护和升级。值得一提的是,机器人管理员还可以依靠算法,定期向用户传达社交网络管理规约等平台管理信息,或者利用其社交属性,深入不同社区版块,积累不同群体的语料素材,进而对违法信息予以科学辨明,切实做好网络常态化管控工作并提升应对突发舆情事件的综合能力。
需要注意的是,对生成式人工智能的技术治理必须恪守应有的效用边界,在边界范围之内发挥治理的价值和功能,边界之外则需凸显法律规制的普适性,包括法律对技术的归化。质言之,生成式人工智能的治理应当采取技术治理与法律规制同步进行的方式,此种二元共治模式重新检视和诠释了技术与法律的辩证关系,将关注点置于两者的价值协同和功能互补。须知,技术治理正深刻影响着法律规制的路径、边界和组织结构,为其提供强有力的智力支持和科技支撑,而法治实践中的人文主义关怀又会“反哺”于技术治理,使其能够得到有效归化。
对于生成式人工智能的监管,必须基于其明显区别于传统物理世界的环境设置,如若仍将网络行为的现实社会危害性作为衡量指标,通过业务许可、专项审查(整治)等方式来实现内容管理,这是不可取的。在数字化时代,此种监管模式主要存在两大弊端:第一,过于强调规制社交网络用户的显性失范行为,却忽略了ChatGPT和社交机器人这样的人工智能通过算法技术进行数据归类和数据关联,对民事主体的合法权益、舆论安全秩序等所产生的隐性威胁或不当损害。举例来说,我国刑法对于网络侮辱诽谤,是通过情节是否严重来区别罪与非罪的,而根据相关司法解释,判断情节是否严重的事实依据主要包括该信息的实际被点击、浏览次数,被转发次数,造成被害人自杀、自残、精神失常等恶劣后果等。显而易见,这样的司法实践仍囿于传统物理世界的行为规制逻辑,而没有充分考量算法技术在信息传播过程中存在的巨大公共风险问题。第二,忽视了网络技术的迅猛发展以及网络架构设计的即时性和无序性所导致的社交网络的去中心化和扁平化现象。在算法社会,合作治理所产生的正向效用愈加凸显,一种新型的互联网运作模式蔚然成型,即融合监管部门、互联网企业、民间机构、社会团体、公民个体等多元主体力量的针对社交网络的共识、共振、统筹和联动。此种多利益攸关方协同共治的新格局治理与党的二十大报告提出的“健全共建共治共享的社会治理制度”可谓不谋而合。
综上所述,为了防范和化解生成式人工智能所生之风险隐患,有必要转向一种过程性规制,即通过规制数据和算法,达成对生成式人工智能应用失范的科学治理。不同于以往侧重于对信息类型和内容进行审查的做法,过程性规制更为关注的是信息的产生、在网络中的传播、在社交同温层的影响
根据中共中央、国务院印发的《法治政府建设实施纲要(2021-2025年)》的相关规定,在对生成式人工智能进行过程性规制时,有如下几个方面要特别注意:(1)不能单纯以流量和热度作为是否采取相应规制举措的判断标准,应利用技术手段对相关智能机器人所发信息予以辨明和澄清,破除互联网用户对其的被动型认知依赖,并在线下面对面地收集群众意见建议,以此真正践行“从群众中来,到群众中去”的群众路线。(2)需加强对算法推荐的监管,因为生成式人工智能常常利用算法推荐来扩大声量,炒作虚假信息,最终对目标群体施以不正当影响。根据2022年3月1日起施行的《互联网信息服务算法推荐管理规定》,监管部门一方面要对算法推荐服务提供者进行严格管控,另一方面也要对用户权益进行全面保护。(3)算法技术的迅猛发展与其相对滞后的归责机制以及差异化的裁判标准之间的鸿沟愈发凸显。为了促进生成式人工智能在技术层与合规层的协调并进,追求算法正义,应落实相关开发者和使用者的算法安全主体责任,赋予其信息披露义务,并建立行之有效的问题反馈机制。人工智能的算法设计必须遵循一定的伦理标准和规则,应在监管部门处就算法服务提供者的名称、服务形式、应用领域、数字模型、算法范式、建模方法、算法自评估报告等信息进行备案,并接受包括设计目的和策略议程等方面的安全评估。在国家人工智能治理专业委员会于2021年9月25日发布的《新一代人工智能伦理规范》中,明确提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养6项基本伦理要求,这些均为生成式人工智能的算法治理提供了坚实的政策依据。(4)这里所谓的过程性规制隐含了对各类网络平台的监管职责。监管部门可以通过制定信息发布政策、设置信息技术服务标准、开展信息安全服务资质认证、限制或禁止通过生成式人工智能传播非法信息等举措,实现对数据化信息场的强有力管控。(5)根据《互联网信息服务算法推荐管理规定》第23条的规定,应由网信部门会同电信、公安、市场监管等有关部门建立算法分级分类安全管理制度。此种监管能够有效地将一般监管事项与特殊监管事项区分并紧密结合起来,促使行政部门出台更具针对性的行政规章制度,强化执法效能,提升行政执法精准性,对生成式人工智能这样具有舆论属性和社会动员能力的重点对象进行严格的风险管控,同时也要避免因过度监管而对算法创新造成的不利影响。
大数据时代背景下,网络平台为了增加自身竞争力,实现既定的商业营收目标,获取资本市场青睐,往往对流量、点击量极为看重,使其一度成为平台重要甚至唯一的考核指标。而生成式人工智能的应用——尤其是社交机器人的大面积投放——在客观上确实可以带来流量泡沫,以“引战”之名行“引流”之实,这对于网络平台而言实属喜闻乐见,因此也就丧失了监管激励。尽管如此,网络平台却非一般商事主体,它虽常常以公司形态存在,其背后的股权架构也较为复杂(尤其是跨境平台),但它却为民众提供了参与公共社交活动的重要虚拟场所,其中夹杂的公共利益不言而喻。通过制定和实施一系列管理规定,网络平台实际上承担起了部分公共职责,建构了一套独立的、日趋完善的交互秩序。如今的网络平台并非只是单纯的信道(即传播媒介),其在很大程度上已丧失了作为工具的中立性和非参与性,它扮演着网络市场规制者的角色,行使着准立法权、准行政权和准司法权。
由于网络平台行使管理职权具有明显的单方性、命令性、强制性和跨国家主权性,因此其可以凭借话语权力和技术手段,科学构建起防止生成式人工智能应用失范的制度规则。平台相应的监管措施主要表现为三个方面:(1)建立健全诚信化举报机制。一方面,鼓励和调动平台用户以匿名方式主动报告可疑事件,譬如上报那些不分昼夜地不间断饱和式发言,意在抢占话语导向先机的账号,或者在短期内从同一个IP地址发了很多帖子或者在很多平台发了相同的帖子;另一方面,平台需对该举报机制的绩效进行定期评估并据此予以相应改进,同时要明确对网络举报志愿者的奖励规则。(2)增强风险意识,主动防御生成式人工智能可能带来的网络危害。平台应积极使用新科技检测手段,辅之以人工核查,科学识别和拦截恶意生成式人工智能账号,并视具体情形不同采取删除信息、贴标签或通知等处置措施。其中,最为严厉的措施无异于删除那些智能生成的相似的有害信息,甚至对该账户实施禁言或封号,以削弱人工智能通过平台的推荐程序和搜索引擎这两大信息过滤检索通道对人类用户产生不当影响。但此举也可能会导致“过度阻断”或者误删被允许的信息,因此,平台必须为“附带伤害”的用户保留投诉通道,有义务听取他们的申辩和解释,进而最终作出正确合理的裁判结论。与删除信息不同,贴标签这项举措比较“温和”,不具有侵害权利的可能性,但却可以降低类似社交机器人这样的人工智能基于信息订阅推送服务而诱导受众对其进行关注的成功概率,同时使那些被视作机器人用户的账户所发信息在意见交锋时失去可信度,人类用户也可以自行决定是否要相信一个智能聊天机器人,以及它的言论到底有多重要。这将大大减少公众舆论形成过程中的扭曲现象,降低沉默的螺旋以及盲目遵从所谓多数人意见的发生概率。至于平台的通知义务,既包括我国民法典“侵权责任编”第1195、1196条所规定的内容,又包括平台在面对可能危害国家安全和公共秩序的事宜时,有义务向国家安全部门报告有问题的账户、说明可疑的事实,并等待行政指令而行事。(3)定期发布《透明度报告》(TransparencyReport,很多社交网络平台都会发布该声明,意在披露各种与用户数据、记录或内容相关的统计信息),并对算法数据予以审计,确保其公正性、完整性和准确性。此外,平台应引入通过算法识别智能聊天机器人的应用程序,并利用验证码Cookie以查验用户是否为人类,以此避免其对真人用户进行有目的的搭讪。
结语
无论在学界抑或实务界,针对生成式人工智能应用失范的担忧总不绝于耳,采取预防性的措施和因应性的制度实属必要。毕竟,法律体系存在的终极意义就在于追踪并规范那些可以通过技术治理的哪怕是发生可能性极小或者影响力极弱的各类风险的每一个环节流程。本文对于生成式人工智能法律规制的探讨主要是框架性、方向性、原则性的,大量深入的理论和实证研究尚待进行,诸如多方共治格局下,对于包括新闻媒体、社会公益组织、行业协会、公民个人等在内的社会深度监督的研究,唯有如此方能最终形成系统性的治理解决方案。虽然身处第四次工业革命时代,现实逐渐为数据和符号所替代,而在这些数据和符号背后,依然是无穷无尽的数据和符号,“现代的真实已由技术性活动重构”,这也使得生成式人工智能在虚拟网络空间中的角色与功能都愈发多样,对其进行解读梳理,有助于我们去窥探、拷问和理解技术创新与法律规制在法理层面的关系,以及应以何种范式来规制,亦即既有法律规范如何在人机交互的网络生态中展开解释与适用。
往期精彩回顾
刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例
上海市法学会官网
http://www.sls.org.cn